• Skat undviger centralt spørgsmål efter afsløring om overvågning af danskerne: »Det må være ret basalt at kunne svare på«

    Source: BDK Finans / 19 Apr 2024 09:28:41   America/New_York

    Det er for nylig kommet frem, at en lang række myndigheder bruger kunstig intelligens til at løse en lang række opgaver i det offentlige. Og særligt Skatteforvaltningen er storforbruger af den nye ai-teknologi, som vi ved, at myndigheden bruger til at overvåge og kontrollere, om danskerne for eksempel snyder med sociale ydelser. Det viser en aktindsigt hos Datatilsynet, som Berlingske har fået, der kortlægger myndighedernes brug af ai. Først mørklagde skattemyndighederne ifølge Berlingskes optælling formålet med 14 af de 23 ai-systemer, som de blandt andet bruger til at kontrollere og overvåge almindelige danskeres færd. Nu undviger Skattestyrelsen – trods adskillige forespørgsler fra Berlingske – at svare på, om der er foretaget en såkaldt »risikovurdering« for hver af de ai-løsninger, som styrelsen har taget i anvendelse. Og det manglende svar får en af landets førende eksperter på området til at bekymre og undre sig. Risikovurderingerne er nemlig først og fremmest lovpligtige – men også helt centrale – hver gang offentlige myndigheder tager ny teknologi i anvendelse. Her kigger man nemlig på, hvilke risici der er for krænkelse af borgerne og borgernes rettigheder. Hvis man ikke tilrettelægger sin brug af kunstig intelligens på en stringent måde, risikerer man nemlig, at borgere bliver diskrimineret. »Det kan jo ikke være fortroligt på nogen måde, om de er gennemført,« siger Hanne Marie Motzfeldt, som er professor i forvaltningsret og digitalisering ved Københavns Universitet, om risikovurderingerne. I Holland gik det helt galt, da det kom frem, at en fejlbehæftet algoritme uretmæssigt havde frataget op mod 26.000 socialt udsatte mennesker deres sociale ydelser. Sagen kostede den hollandske regering livet i starten af 2021. Og det er netop den type sager, man forsøger at undgå ved at gennemføre grundige risikovurderinger, før man tager nye løsninger i brug, men det har altså ikke været muligt for Berlingske at få svar på, om skatteforvaltningen har lavet de vigtige risikovurderinger. »De burde vide, hvad du spørger om. Jeg tror ikke på, at de ikke kender lovgivningen i Skattestyrelsen,« siger Hanne Marie Motzfeldt og tilføjer: »I de der udviklingsprocesser kan man meget let være kommet til at overse, at man skal lave de her juridiske vurderinger for at få forsvarlige og lovlige it-løsninger.« Skatteforvaltningen forholder sig ikke til Berlingskes spørgsmål Berlingske henvendte sig allerede 11. april til den samlede skatteforvaltning, hvor vi konkret spurgte, om der var foretaget konkrete risikovurderinger af de løsninger, som Skatteforvaltningen bruger. Efter at havde udskudt deadline gentagne gange vendte skatteforvaltningen 17. april tilbage med et skriftligt svar, der ikke forholdt sig til, om skatteforvaltningen havde foretaget risikovurderinger af deres ai-løsninger. Berlingske spurgte derfor igen 17. april, om Skatteforvaltningen samlet set har udarbejdet risikovurderinger for hver af deres anvendte ai-løsninger. I et skriftligt svar 18. april forholder Skatteforvaltningen sig heller ikke konkret til, om den konkret har udarbejdet indledende risikovurderinger af alle deres ai-løsninger. Hanne Marie Motzfeldt, hvad betyder det, hvis skatteforvaltningen ikke har foretaget de her risikovurderinger? »Det er for det første et brud på databeskyttelsesforordningen. De databeskyttelsesretlige risikovurderinger og konsekvensanalyser er til for, at før man tager et nyt system i brug, så undersøger man, hvordan man sikrer, at systemet og den måde, som man bruger det på, respekterer borgernes rettigheder,« siger professoren og uddyber: »Man skal jo ikke bare have et it-system for systemets skyld – men et it-system der kan bruges til en fornuftig, lovlig og forsvarlig forvaltning.« Skattestyrelsen har oplyst, at man har valgt at behandle Berlingskes oprindelige henvendelse som en aktindsigt, og det undrer Hanne Marie Motzfeldt. »Det må være ret basalt at kunne svare på, for det bør bare kunne fremsøges. Så er det heller ikke mere kompliceret,« siger professoren. Skattestyrelsen har ikke ønsket at forholde sig til Hanne Marie Motzfeldt kritikpunkter, men har i stedet henvist til følgende skriftlige citat fra Skattestyrelsens juridiske direktør, Katrine Ledam Rasmussen: »I Skatteforvaltningen er vi meget optaget af borgernes retssikkerhed. Det gælder også, når vi anvender fx machine learning-modeller til at understøtte tilrettelæggelsen af vores kontrolindsats. Vi arbejder derfor også løbende på at sikre, at vi bruger den teknologiske understøttelse på en måde, der er i overensstemmelse med de forvaltningsretlige og databeskyttelsesretlige regler,« skriver Katrine Ledam Rasmussen og uddyber: »I forhold til de konkrete machine learning-modeller har Skatteforvaltningen derfor lavet indledende vurderinger med henblik på at afdække behovet for nærmere konsekvensanalyser. Som vi også har oplyst over for Datatilsynet, har Skatteforvaltningen dog ikke i alle tilfælde – svarende til ca. halvdelen af de til Datatilsynet indmeldte modeller – udarbejdet de relevante konsekvensanalyser.« Skattestyrelsen oplyser desuden, at nogle af de omtalte konsekvensanalyser fortsat er igangværende, og at man arbejder på, at de bliver færdige så hurtigt som muligt. Konsekvensanalyserne er – modsat risikovurderingerne – kun lovpligtige, hvis det i risikovurderingerne vurderes, at borgernes rettigheder vil være eksponeret for en høj risiko. https://www.berlingske.dk/virksomheder/skat-undviger-centralt-spoergsmaal-efter-afsloering-om-overvaagning
Share on,